Text copied to clipboard!

Titel

Text copied to clipboard!

Spark Ontwikkelaar

Beschrijving

Text copied to clipboard!
Wij zijn op zoek naar een Spark Ontwikkelaar die gepassioneerd is over het bouwen van schaalbare en efficiënte big data-oplossingen. Als Spark Ontwikkelaar werk je samen met data engineers, data scientists en softwareontwikkelaars om complexe gegevensverwerkingspijplijnen te ontwerpen, ontwikkelen en optimaliseren met behulp van Apache Spark. Je speelt een cruciale rol in het verwerken van grote hoeveelheden gegevens en het mogelijk maken van realtime en batch-analyse voor onze klanten en interne teams. In deze rol ben je verantwoordelijk voor het ontwikkelen van robuuste en herbruikbare Spark-toepassingen, het optimaliseren van prestaties en het waarborgen van de betrouwbaarheid van gegevensverwerking. Je werkt met verschillende opslag- en verwerkingssystemen zoals Hadoop, Hive, Kafka en cloudplatforms zoals AWS, Azure of GCP. Je begrijpt de principes van gedistribueerde systemen en bent in staat om code te schrijven die schaalbaar en onderhoudbaar is. Je zult ook betrokken zijn bij het analyseren van bedrijfsvereisten, het vertalen van deze naar technische specificaties en het implementeren van oplossingen die waarde toevoegen aan de organisatie. Je werkt in een agile omgeving en draagt bij aan code reviews, teststrategieën en continue integratieprocessen. De ideale kandidaat heeft ervaring met het ontwikkelen van Spark-toepassingen in Scala, Java of Python, en heeft een goed begrip van big data-ecosystemen. Je bent analytisch sterk, oplossingsgericht en hebt uitstekende communicatieve vaardigheden. Je bent in staat om zelfstandig te werken, maar functioneert ook goed in teamverband. Als Spark Ontwikkelaar krijg je de kans om te werken aan innovatieve projecten binnen een dynamische en snelgroeiende organisatie. Je draagt bij aan de digitale transformatie van bedrijven door het mogelijk maken van datagedreven besluitvorming. Als jij enthousiast bent over big data-technologieën en graag werkt aan uitdagende technische vraagstukken, dan nodigen wij je uit om te solliciteren.

Verantwoordelijkheden

Text copied to clipboard!
  • Ontwikkelen en onderhouden van Apache Spark-toepassingen
  • Optimaliseren van gegevensverwerkingspijplijnen voor prestaties en schaalbaarheid
  • Samenwerken met data engineers en data scientists
  • Integreren van Spark met andere big data-technologieën zoals Kafka, Hive en Hadoop
  • Schrijven van efficiënte en herbruikbare code in Scala, Java of Python
  • Analyseren van bedrijfsvereisten en vertalen naar technische oplossingen
  • Zorgen voor gegevenskwaliteit en betrouwbaarheid
  • Deelnemen aan code reviews en testprocessen
  • Bijdragen aan CI/CD-processen
  • Documenteren van technische ontwerpen en implementaties

Vereisten

Text copied to clipboard!
  • Minimaal 3 jaar ervaring met Apache Spark
  • Ervaring met Scala, Java of Python
  • Kennis van big data-ecosystemen zoals Hadoop, Hive, Kafka
  • Ervaring met cloudplatforms zoals AWS, Azure of GCP
  • Begrip van gedistribueerde systemen en gegevensverwerking
  • Sterke probleemoplossende vaardigheden
  • Goede communicatieve vaardigheden
  • Ervaring met agile ontwikkelmethodologieën
  • Bekendheid met CI/CD-tools en processen
  • Bachelor of master in informatica of vergelijkbaar

Potentiële interviewvragen

Text copied to clipboard!
  • Hoeveel jaar ervaring heb je met Apache Spark?
  • Welke programmeertalen gebruik je voor Spark-ontwikkeling?
  • Heb je ervaring met cloudplatforms? Zo ja, welke?
  • Kun je een voorbeeld geven van een big data-project waar je aan hebt gewerkt?
  • Hoe zorg je voor de prestaties van een Spark-toepassing?
  • Wat is je ervaring met CI/CD-processen?
  • Werk je liever zelfstandig of in teamverband?
  • Hoe ga je om met veranderende projectvereisten?
  • Wat zijn je favoriete tools binnen het big data-ecosysteem?
  • Ben je bereid om nieuwe technologieën te leren?